Ein Jahr Digital Services Act„Ich bin jetzt nicht mehr so machtlos“

Seit einem Jahr gelten in der EU neue Regeln für sehr große Plattformen wie TikTok oder Amazon. Sie sollen die Macht verschieben: weg von den Riesen, hin zu den Nutzer:innen. Das ist jedoch nur zum Teil gelungen, kritisiert Jurist Jürgen Bering im Interview.

Smartphone-Bildschirm zeigt Icons von Facebook, X, Insta und TikTok.
Auf dem Handy vieler Nutzer:innen, deswegen im Blick der EU-Kommission: Facebook, X und Co. – Alle Rechte vorbehalten IMAGO

Seit einem Jahr gelten in der EU neue Regeln für sehr große Plattformen und Suchmaschinen wie Facebook, TikTok oder Google. Weil sie mehr als 45 Millionen Nutzer:innen in der EU haben, müssen sie laut dem Digital Services Act (DSA) sehr viel strikter gegen illegale Inhalte vorgehen – von terroristischen Inhalten und Angeboten für gefälschte Produkte bis hin zu rechtswidriger Hassrede.

Auch „systemische Risiken“ für Grundrechte müssen die Online-Riesen seitdem selbst benennen und Maßnahmen dagegen ergreifen. Sind ihre Moderationsregeln eine Gefahr für die Demokratie? Könnten sie zur Manipulation von Wahlen beitragen oder gefährden sie die Gesundheit von Kindern? Solche Dinge müssen X, Instagram oder TikTok nun in Berichten an die EU-Kommission melden. Befolgen sie die Regeln nicht, drohen hohe Geldstrafen.

Als „Gesetz für ein besseres Internet“ hatte die EU-Kommission ihr Gesetzespaket vollmundig angekündigt. Nun stellt sich die Frage: Haben Nutzer:innen in der EU heute tatsächlich bessere Karten als vor einem Jahr? Jürgen Bering leitet seit Kurzem das Center for User Rights bei der Gesellschaft für Freiheitsrechte (GFF). Der gemeinnützige Verein schützt Grundrechte durch strategische Gerichtsverfahren. Berings Spezialgebiet: Das neue Gesetz.

netzpolitik.org: Jürgen, was genau hat der Digital Services Act vor einem Jahr verändert?

Jürgen Bering: Es brachte verschiedene Vorschriften, je nach Größe der Plattformen. Die wohl spannendsten sind die in Bezug auf sehr großen Online-Plattformen und Suchmaschinen. Vor einem Jahr gingen diese Verpflichtungen los. Große Plattformen müssen jetzt etwa ihre Risiken in Bezug auf Grundrechte identifizieren und Maßnahmen ergreifen, um diese Risiken zu mindern.

netzpolitik.org: Wer als „sehr große“ Plattform oder Suchmaschine gilt, das legt die EU-Kommission fest. Waren für dich Überraschungen dabei, als die Liste veröffentlicht wurde?

Jürgen Bering: Von den meisten Plattformen wie Facebook und Co. wusste man ja schon, dass sie sehr viele Nutzer:innen in der EU haben. Das war nicht überraschend. Unklar war allenfalls, ob Twitter-Nachfolger X in der EU so viele Nutzer:innen hat.

netzpoliitk.org: Dann hat die Kommission in einer zweiten Runde überraschend auch drei Porno-Plattformen auf die Liste gesetzt.

Jürgen Bering: Das fand ich spannend. Das Gesetz wurde ja vor allem für Plattformen wie Facebook und Co. geschaffen. Porno-Plattformen waren ursprünglich nicht im Blick. Dann hat die Zivilgesellschaft Druck gemacht und die Kommission hat schnell gemerkt: Es könnte ja auch noch andere Plattformen geben, die große Risiken bergen. In Zukunft könnten vielleicht auch Dating-Plattformen interessant werden. Auch für die wurde das Gesetz ursprünglich nicht gemacht. Jetzt merkt man aber: Die fallen ja vielleicht doch darunter. Mal sehen, was das bedeutet.

„Manchmal gehen die Regeln nicht weit genug“

netzpolitik.org: Das Gesetz soll die Rechte von Internet-Nutzer:innen gegenüber Plattformen schützen. Ist das gelungen?

Jürgen Bering: Stand jetzt: teils, teils. Mehr Transparenz, bessere Verfahrensrechte, das finde ich einen guten Ansatz. Allein, dass Plattformen das Löschen von Inhalten jetzt begründen müssen, ist ein Vorteil. Es zeigt häufig: Es gibt keine Begründung oder sie ist rechtlich angreifbar. In der Umsetzung scheitert es aber noch teils. Manchmal gehen die Regeln auch nicht weit genug.

netzpolitik.org: An welchen Stellen ist das so?

Jürgen Bering: Ein großes Problem sehe ich zum Beispiel bei den Empfehlungssystemen, also: Was wird wem angezeigt? Wenn eine einzelne Moderationsmaßnahme getroffen wird, dann muss sie begründet sein und kann angegriffen werden. Wenn aber ein Post auf einer Plattform weniger Views bekommt als der vorherige: Wie soll man da nachweisen, dass der Inhalt gedrosselt wird und es nicht einfach an einem weniger interessanten Post liegt? Die Plattformen halten sich da gerne bedeckt. Sie müssen laut Gesetz nur sehr allgemeine Angaben dazu machen, wie ihre Systeme funktionieren. Da noch mehr Transparenz und Kontrolle zu schaffen, wäre sinnvoll gewesen.

netzpolitik.org: Was hat sich für uns als Nutzer:innen konkret verbessert seit das Gesetz gilt?

Jürgen Bering: Ich bin jetzt nicht mehr so machtlos gegenüber der Plattform. Wenn sie mir gegenüber etwas macht, muss sie das begründen, muss mir auch sagen, wie ich dagegen vorgehen kann. Das verändert etwas im Denken. Davor habe ich von vielen gehört: Die Plattformen können ja alles mit mir machen. Jetzt merken sie: Was mir passiert, ist ein Unrecht.

Außerdem sind Plattformen jetzt einfach strenger im Blick von Behörden. Entsprechend achten sie auch mehr darauf, was sie eigentlich machen können und was nicht. Einige befolgen die Regeln eher pro forma. Bei anderen merkt man, dass sie Dinge umsetzen, die gut für ihre Nutzer:innen sind.

netzpolitik.org: Ist es denn einfacher geworden, Drohungen im Netz zu melden oder auch intime Bilder, die ohne Zustimmung im Netz veröffentlicht wurden? Werden diese Inhalte jetzt auch schneller gelöscht?

Jürgen Bering: Bei einigen Inhalten ist das vielleicht so. Beleidigungen zu identifizieren, ist zum Beispiel leicht. Sie fallen ins Standardrepertoire. An anderen Stellen wird es sicher schwieriger sein. Das Gesetz sieht vor, dass bestimmte Organisationen als „Trusted Flagger“ solche Inhalte melden können und diese dann schneller bearbeitet werden müssen. Das kann man kritisch sehen, weil es auch Gefahren birgt. Was ist etwa, wenn sich in Staaten wie Ungarn dann auch Behörden als solche Flagger registrieren und dann anfangen, gezielt Inhalte der Opposition als illegal zu melden?

Plattformen können Risiken herunterspielen

netzpolitik.org: Ihre Risikoberichte für die Kommission verfassen die Unternehmen selbst. Ein Konstruktionsfehler?

Jürgen Bering: Den Plattformen gibt das eine starke Position. Sie können Risiken zum Beispiel als geringer darstellen als sie sind. Oder behaupten, sie hätten schon starke Maßnahmen dagegen. Die Kommission kann das anders bewerten und die Plattformen zum Handeln zwingen. Aber trotzdem führt das erst mal zu einem längeren Hin und Her zwischen Plattformen und Kommission. Bis sich da große Dinge ändern, dauert es.

netzpolitik.org: Das Gesetz soll die Plattformen eigentlich zu mehr Transparenz verpflichten. Dieser Austausch mit der Kommission bleibt aber bisher geheim. Wann werden wir die ersten öffentlichen Berichte sehen?

Jürgen Bering: Die Berichte bleiben sehr lange geheim gegenüber der Zivilgesellschaft. Irgendwann werden Zusammenfassungen veröffentlicht, die ersten sollten bald erscheinen. Aber ich bin sehr gespannt, was da tatsächlich drin stehen wird. Wir haben in der Vergangenheit gesehen, dass in diesen Berichten nicht alle Probleme aufgelistet sind, die wir auf den Plattformen sehen.

netzpolitik.org: Die Gesellschaft für Freiheitsrechte hat Anfang des Jahres eine Beschwerde gegen LinkedIn eingereicht wegen zielgerichteter Werbung. Hattet ihr damit Erfolg?

Jürgen Bering: Das Gesetz verbietet nicht jede Form der zielgerichteten Werbung, die Vorschriften sind in diesem Punkt eher schwach. Auf LinkedIn konnte man aber Werbung gezielt an Gruppen ausspielen auf Basis ihrer sexuellen Orientierung oder ihrer politischen Einstellung. Das ist laut dem Gesetz verboten und das haben wir gemeldet. Die Kommission hat sehr schnell drauf reagiert und Gespräche mit LinkedIn geführt. Kurz darauf hat LinkedIn diese Möglichkeit eingestellt.

Verpflichtende Alterskontrollen verhindern

netzpolitik.org:  Viele befürchten, dass Pornoplattformen jetzt Alterskontrollen für alle erwachsenen Nutzer:innen einführen könnten, weil die neuen Regeln sie strenger dazu verpflichten, Minderjähirge von solchen Inhalten fern zu halten. Kommen die Alterskontrollen?

Jürgen Bering: Das ist eine schwierige Frage, weil sehr viele unterschiedliche Rechte betroffen sind. Auf der einen Seite: Das Recht auf Anonymität im Internet. Auf der anderen Seite ist Kinder und Jugendschutz ein sehr wichtiges Thema. Der Digital Services Act schreibt Alterskontrollen zwar nicht vor. Wichtig ist aber, dass es in der Umsetzung nicht doch faktisch dazu kommt. Und ich glaube, da ist die Zivilgesellschaft gefragt.

Alterskontrollen sind eine einfache Art um zu vermitteln: Damit ist das Problem angeblich gelöst. Wenn es eine anscheinend einfache Antwort gibt, wird die häufig politisch favorisiert gegenüber besseren Antworten, die man eine Minute lang erklären muss. Das macht Alterskontrollen so verlockend. Wir werden viel dazu arbeiten müssen, welche Wege es gibt, um das Alter von Nutzer:innen zu überprüfen, ohne dabei viele weitere Grundrechte einzuschränken.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

2 Ergänzungen

  1. >> „Es könnte ja auch noch andere Plattformen geben, die große Risiken bergen. …. Auch für die wurde das Gesetz ursprünglich nicht gemacht. Jetzt merkt man aber: Die fallen ja vielleicht doch darunter. Mal sehen, was das bedeutet.“

    Entweder wurde das Gesetz schlampig geschrieben, oder die EU-Kommission hat sich von Anfang an ein schlagkräftiges Zensurinstrument ohne jede demokratische Kontrolle in die Hand gegeben.

    Fakt ist jedenfalls, dass, während die Instanzen noch grübeln, wie man diese angeblichen Rechte für Bürger gegenüber den Plattformen wohl interpretieren und umsetzen könnte, EU-Kommissare wie Herr Breton schon lange mit der „6 % des Weltjahresumsatzes“ -Keule drohen und Zensur auf Zuruf einfordern. Wohl mit Erfolg, wenn man das Schweigen von Google, Facebook, Microsoft richtig interpretiert oder die Twitter-Files extrapoliert.

    1. Ergänzungsanalyse Marvin sagt:

      Mit entweder-oder wird dem Leser eine Denk-Auswahl vorgesetzt, die suggeriert, dass es nur diese zwei Möglichkeiten gäbe. Meist sind es aber nur Behauptungen, die der Schreiber:in in den Kram passt.

      Es wird das Buzzword „Zensur“ in den Text eingeführt, als „schlagkräftiges Zensurinstrument“ und „Zensur auf Zuruf“. Die Behauptung, Androhung von Zensur wird als FUD-Mittel verwendet, um die gewünschte Wirkung bei Lesern zu erzielen.

      Die Schreiber:in glaubt das Schweigen von mächtigen Konzernen „richtig interpretiert“ zu haben, und übernimmt sich damit ein wenig.

      Rechte werden als „angebliche Rechte“ der Bürger verhöhnt. Mal forschen, wer sonst noch so spricht.

      Mit „extrapolierten“ Twitter-Files werden am Ende des Textes die halb-intellektuellen Backen noch mal kräftig aufgeblasen. Klingt mathematisch, aber wie groß ist der Methoden-Fehler dabei?

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.